AI资讯新闻榜单内容搜索-AI

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AI
晚点独家丨2 年半,字节造出千台机器人,长期目标是具身智能

晚点独家丨2 年半,字节造出千台机器人,长期目标是具身智能

晚点独家丨2 年半,字节造出千台机器人,长期目标是具身智能

2023 年 7 月,《晚点 LatePost》曾独家披露,字节 AI Lab 旗下机器人团队正推进机器人量产。当时曾定下到 2023 年年底,量产 200 台的目标。

来自主题: AI资讯
6059 点击    2025-07-03 11:17
红杉美国等机构4800万美金超大额押注,四位学者做了一个细分领域的AI coding产品

红杉美国等机构4800万美金超大额押注,四位学者做了一个细分领域的AI coding产品

红杉美国等机构4800万美金超大额押注,四位学者做了一个细分领域的AI coding产品

想象一下,凌晨三点你被电话吵醒,公司的核心系统彻底崩溃,数十万用户无法正常使用服务,每分钟损失数万美元。你和 50 个工程师挤在一个 Slack 紧急群里,面对着成千上万条日志、指标和报警,却根本找不到问题的根源。

来自主题: AI资讯
5249 点击    2025-07-03 11:13
AI 重构搜索:谁能夺下智能时代的主入口?

AI 重构搜索:谁能夺下智能时代的主入口?

AI 重构搜索:谁能夺下智能时代的主入口?

从 Chatbot 到 Perplexity,搜索正被 AI 改写,但这只是开始。Chatbot 与 Perplexity.ai 分别代表了 AI 重塑搜索的两类探索路径:一个是对话式交互的路径,一个是「答案即结果」的路径。

来自主题: AI资讯
5483 点击    2025-07-03 11:12
让GUI智能体不再「过度执行」,上海交大、Meta联合发布OS-Kairos系统

让GUI智能体不再「过度执行」,上海交大、Meta联合发布OS-Kairos系统

让GUI智能体不再「过度执行」,上海交大、Meta联合发布OS-Kairos系统

本文第一作者是上海交通大学计算机学院三年级博士生程彭洲,研究方向为多模态大模型推理、AI Agent、Agent 安全等。通讯作者为张倬胜助理教授和刘功申教授。

来自主题: AI技术研报
8186 点击    2025-07-03 11:03
见到知乎创始人了。。AI 编程新思考

见到知乎创始人了。。AI 编程新思考

见到知乎创始人了。。AI 编程新思考

大家好,我是小林,周一在阿里魔搭现场,听知乎创始人周源老师分享,有句话非常打动我: 开源不仅仅是技术,还有思想开源。

来自主题: AI资讯
5237 点击    2025-07-03 10:58
Chatbot,是一种懒惰的产物

Chatbot,是一种懒惰的产物

Chatbot,是一种懒惰的产物

「聊天界面,本质上是一种懒惰的产物。」大多数 AI 产品都在做 chatbot。对话框是最简单直接的人类与 AI 交互的「接口」,同时也是一个 AI 产品最低成本上线的方式。

来自主题: AI资讯
5576 点击    2025-07-03 10:47
AI Agent、传统聊天机器人有何区别?如何评测?这篇30页综述讲明白了

AI Agent、传统聊天机器人有何区别?如何评测?这篇30页综述讲明白了

AI Agent、传统聊天机器人有何区别?如何评测?这篇30页综述讲明白了

自从 Transformer 问世,NLP 领域发生了颠覆性变化。大语言模型极大提升了文本理解与生成能力,成为现代 AI 系统的基础。而今,AI 正不断向前,具备自主决策和复杂交互能力的新一代 AI Agent 也正加速崛起。

来自主题: AI技术研报
4677 点击    2025-07-03 10:31
普通人用Gemini CLI提效的 1 万种方法!藏师傅保姆级教程

普通人用Gemini CLI提效的 1 万种方法!藏师傅保姆级教程

普通人用Gemini CLI提效的 1 万种方法!藏师傅保姆级教程

大家好,这里是歸藏(guizang),分享一下 Gemini CLI 不写代码能有多好用! 前几天最近随着 Claude Code 这个命令行 AI 代码工具的火爆,谷歌也耐不住寂寞推出了自己的同类产品 Gemini CLI,而且完全免费,非常顶。

来自主题: AI技术研报
6831 点击    2025-07-03 10:22
周志华团队新作:LLM中存在奖励模型,首次理论证明RL对LLM有效性

周志华团队新作:LLM中存在奖励模型,首次理论证明RL对LLM有效性

周志华团队新作:LLM中存在奖励模型,首次理论证明RL对LLM有效性

将大语言模型(LLMs)与复杂的人类价值观对齐,仍然是 AI 面临的一个核心挑战。当前主要的方法是基于人类反馈的强化学习(RLHF)。该流程依赖于一个通过人类偏好训练的奖励模型来对模型输出进行评分,最终对齐后的 LLM 的质量在根本上取决于该奖励模型的质量。

来自主题: AI技术研报
7354 点击    2025-07-03 10:00